Extracting contract insights with PwC’s AI-driven annotation on AWS
这篇文章是与普华永道的 Yash Munsadwala、Adam Hood、Justin Guse 和 Hector Hernandez 共同撰写的。合同分析通常会消耗法律、合规和采购团队的大量时间,尤其是当重要的见解隐藏在冗长的、非结构化的协议中时。随着合同量的增长,寻找具体条款和评估提取的条款可能变得越来越难以扩展。 [...]
Organizing Agents’ memory at scale: Namespace design patterns in AgentCore Memory
在本文中,您将了解如何设计命名空间层次结构、选择正确的检索模式以及为 AgentCore 内存实施基于 AWS Identity and Access Management (IAM) 的访问控制。
Building AI-ready data: Vanguard’s Virtual Analyst journey
在这篇文章中,您将了解 Vanguard 如何通过关注 AI 就绪数据的八项指导原则、支持其实施的 AWS 服务以及他们所实现的可衡量的业务成果来构建其虚拟分析师解决方案。
Automate repetitive tasks with Amazon Quick Flows
本文向您展示如何使用 Amazon Quick 构建第一个由 AI 驱动的工作流程,从财务分析工具开始,逐步发展到高级员工入职自动化。
Build and deploy an automatic sync solution for Amazon Bedrock Knowledge Bases
在这篇文章中,我们探索了一种自动化解决方案,该解决方案可以检测 S3 事件并触发摄取作业,同时尊重服务配额并提供全面的监控。此无服务器解决方案使用事件驱动的架构来使您的知识库保持最新状态,而不会压垮 Amazon Bedrock API。
Build Strands Agents with SageMaker AI models and MLflow
在这篇文章中,我们演示了如何使用 Strands Agents SDK 以及部署在 SageMaker AI 端点上的模型来构建 AI 代理。您将了解如何从 SageMaker JumpStart 部署基础模型,将其与 Strands Agent 集成,以及使用 SageMaker Serverless MLflow 进行代理跟踪建立生产级可观测性。我们还介绍了如何跨多个模型变体实施 A/B 测试,使用 MLflow 指标评估代理性能,并展示如何在您控制的基础设施上构建、部署和持续改进 AI 代理。
Building Workforce AI Agents with Visier and Amazon Quick
在这篇文章中,我们展示了如何通过模型上下文协议 (MCP) 将 Visier Workforce AI 平台与 Amazon Quick 连接起来,为每个知识工作者提供一个统一的代理工作空间来提出问题。Visier 有助于将工作空间建立在实时劳动力数据及其周围的组织环境中,同时让您的用户无需切换工具即可根据对话结果采取行动。
Amazon Quick for marketing: From scattered data to strategic action
Amazon Quick 改变您的工作方式。您可以在几分钟内完成设置,到一天结束时,您会想知道如果没有它您是如何工作的。快速连接您的应用程序、工具和数据,创建个人知识图谱,了解您的优先事项、偏好和网络。
Applying multimodal biological foundation models across therapeutics and patient care
在这篇文章中,我们将探讨多模式 BioFM 的工作原理,展示药物发现和临床开发中的实际应用,并介绍 AWS 如何帮助组织构建和部署多模式 BioFM。
Amazon SageMaker AI now supports optimized generative AI inference recommendations
如今,Amazon SageMaker AI 支持优化的生成式 AI 推理建议。通过提供经过验证的、具有性能指标的最佳部署配置,Amazon SageMaker AI 让您的模型开发人员专注于构建准确的模型,而不是管理基础设施。
Get to your first working agent in minutes: Announcing new features in Amazon Bedrock AgentCore
今天,我们推出了新功能,可进一步简化代理构建体验,消除基础设施障碍,这些障碍会在代理开发的每个阶段(从第一个原型到生产部署)减慢团队的速度。
Company-wise memory in Amazon Bedrock with Amazon Neptune and Mem0
Amazon Bedrock 中的公司级内存由 Amazon Neptune 和 Mem0 提供支持,为 AI 代理提供持久的、公司特定的上下文,使它们能够在多种交互中智能地学习、适应和响应。 TrendMicro 是世界上最大的防病毒软件公司之一,开发了 Trend’s Companion 聊天机器人,因此他们的客户可以通过自然的对话式交互来探索信息
From developer desks to the whole organization: Running Claude Cowork in Amazon Bedrock
今天,我们很高兴在 Amazon Bedrock 中宣布 Claude Cowork。您现在可以直接通过 Amazon Bedrock 或使用 LLM 网关运行 Cowork 和 Claude Code Desktop。在这篇文章中,我们将介绍 Claude Cowork 如何与 Amazon Bedrock 集成,并展示知识工作者如何在实践中使用它的示例。
End-to-end lineage with DVC and Amazon SageMaker AI MLflow apps
在这篇文章中,我们将展示如何结合 DVC(数据版本控制)、Amazon SageMaker AI 和 Amazon SageMaker AI MLflow 应用程序来构建端到端 ML 模型谱系。我们将介绍两种可部署模式——数据集级沿袭和记录级沿袭——您可以使用配套笔记本在自己的 AWS 账户中运行这两种模式。
Accelerate Generative AI Inference on Amazon SageMaker AI with G7e Instances
今天,我们很高兴地宣布在 Amazon SageMaker AI 上推出由 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPU 提供支持的 G7e 实例。您可以为节点配置 1、2、4 和 8 个 RTX PRO 6000 GPU 实例,每个 GPU 提供 96 GB GDDR7 内存。此次发布提供了使用单节点 GPU、G7e.2xlarge 实例来托管强大的开源基础模型 (FM)(例如 GPT-OSS-120B、Nemotron-3-Super-120B-A12B(NVFP4 变体)和 Qwen3.5-35B-A3B)的功能,为组织提供了经济高效且高性能的选择。
Introducing granular cost attribution for Amazon Bedrock
在这篇文章中,我们将分享 Amazon Bedrock 的精细成本归因的工作原理,并演练示例成本跟踪场景。
From hours to minutes: How Agentic AI gave marketers time back for what matters
在这篇文章中,我们分享了 AWS Marketing 的技术、AI 和分析 (TAA) 团队如何与 Gradial 合作在 Amazon Bedrock 上构建代理 AI 解决方案以加速内容发布工作流程。
Transform retail with AWS generative AI services
在线零售商面临着持续的挑战:购物者在网上订购时难以确定合身性和外观,从而导致退货增加和购买信心下降。费用?收入损失、运营开销和客户不满。与此同时,消费者越来越期望身临其境的互动购物体验,以弥合在线和店内零售之间的差距。零售商实施虚拟试穿 [...]